OpenAI казва, че Русия и Китай са използвали неговия ИИ в Covert Campaigns
OpenAI съобщи в четвъртък, че е разпознал и прекъснал пет онлайн акции, които са употребявали неговите технологии за генеративен изкуствен интелект за лъжливо манипулиране на публичното мнение по света и въздействие върху геополитиката.
Усилията бяха ръководени от държавни артисти и частни компании в Русия, Китай, Иран и Израел, сподели OpenAI в отчет за секрети акции за въздействие. Операциите използваха технологията на OpenAI за генериране на изявления в обществени медии, превод и редактиране на публикации, писане на заглавия и премахване на неточности в компютърни стратегии, нормално за продобиване на поддръжка за политически акции или за превръщане на публичното мнение в геополитически спорове.
Докладът на OpenAI е първият път, когато огромен ИИ. компанията разкри по какъв начин нейните характерни принадлежности са били употребявани за такава онлайн машинация, споделиха откриватели в обществените медии. Неотдавнашният напредък на генеративния ИИ. повдигна въпроси за това по какъв начин технологията може да способства за онлайн дезинформация, изключително в година, когато се организират огромни избори по целия свят.
Бен Нимо, основен откривател на OpenAI, сподели, че след всички спекулации по отношение на потреблението на генеративен ИИ. в такива акции компанията имаше за цел да покаже действителностите за това по какъв начин технологията трансформира онлайн измамата.
образование на нов водещ AI. модел, който би донесъл „ идващото равнище на благоприятни условия “.
„ Това е нов вид инструмент “, сподели господин Бруки. „ Остава да се види какъв резултат ще има. “
(The New York Times съди OpenAI и неговия сътрудник, Microsoft, като твърди, че нарушава авторските права на новинарско наличие, обвързвано с системи с ИИ.)
доста ИИ системи. специалистите предвидиха, се споделя в отчета на OpenAI.
„ Това допуска, че някои от най-големите ни страхове по отношение на интервенциите за въздействие с задействан AI и дезинформацията с задействан AI към момента не са се материализирали “, сподели Джак Стъбс, основен разследващ офицер на Graphika, който наблюдава манипулирането на обществени медийни услуги и прегледа констатациите на OpenAI.